Ana içeriğe geç

Llama 2 ile Başlamak

Güncelleme: Llama 3, 18 Nisan'da yayınlandı ve bu not defteri hem Llama 3 hem de Together.ai tarafından barındırılan Llama 2 modellerini nasıl kullanacağınızı göstermek için güncellendi.

Together.ai tarafından barındırılan API servisi aracılığıyla Llama 2 modellerini çağırmak için yazılan yardımcı fonksiyon llama adını taşır. Bu kodu incelemek isterseniz, bu not defterinin üstündeki Dosya -> Aç menü öğesini kullanarak utils.py dosyasını açabilirsiniz (son isteğe bağlı ders de yardımcı fonksiyonu daha detaylı ele alır).

Not: Llama 2 veya 3'ü kendi bilgisayarınızda yerel olarak nasıl çalıştırabileceğinizi görmek için, bu not defterinin son bölümüne gidebilirsiniz.

# llama yardımcı fonksiyonunu içe aktar
from utils import llama
# komutu tanımla
prompt = "Sevgili arkadaşım Andrew için bir doğum günü kartı yazmama yardım et."

Not: Büyük Dil Modelleri (LLMs), aynı komut için farklı yanıtlar verebilir, bu yüzden kurs boyunca aldığınız yanıtlar, ders videolarındakilerden biraz farklı olabilir.

# komutu llama fonksiyonuna geçir, çıktıyı 'response' olarak kaydet sonra yazdır
response = llama(prompt)
print(response)
# Modelin alınan komuta verdiği tam yanıtı görmek için verbose'u True olarak ayarla
prompt = "Sevgili arkadaşım Andrew için bir doğum günü kartı yazmama yardım et."
response = llama(prompt, verbose=True)
print(response)